Das Pathways Language Model (PaLM) ist ein von Google 2022 vorgestelltes Sprachmodell. Es hat 540 Milliarden Parameter und erzielt in verschiedenen NLP-Benchmarks beeindruckende Ergebnisse. In einigen Bereichen soll es mit menschlichen Leistungen vergleichbar sein. PaLM nutzt die multitaskingfähige Pathways-KI-Architektur. Trainiert wurde das Sprachmodell per Few-Shot Learning auf dem Pathways-System mit 6.144 TPU-v4-Chips.
Das Pathways Language Model, abgekürzt PaLM, ist ein im Jahr 2022 von Google vorgestelltes Sprachmodell für NLP-Aufgaben (Natural Language Processing). Es basiert auf Pathways, einer im Jahr zuvor vorgestellten multitaskingfähigen KI-Architektur. Mit 540 Milliarden Parametern hat das Sprachmodell deutlich mehr Parameter als andere aktuelle Sprachmodelle wie das Megatron-Turing Natural Language Generation Model (MT-NLG). In verschiedenen NLP-Benchmarks erzielt das Pathways Language Model beeindruckende Ergebnisse. In bestimmten Bereichen erreicht das Modell menschliche Sprach- und Logikleistungen. PaLM erkennt beispielsweise den Sinn von Witzen, übersetzt Texte, unterscheidet zwischen Ursache und Wirkung, löst logische Aufgaben und erstellt Programmcode. Trainiert wurde das Sprachmodell mithilfe von Few-Shot Learning auf dem Pathways-System, bestehend aus 6.144 TPU-v4-Chips.
Grundkonzept von PaLM
Durch einfaches Skalieren der Sprachmodelle ist deren Leistung nicht unbegrenzt steigerbar. Die Anzahl an Parametern lässt daher nicht zwingend Rückschlüsse auf die Leistungsfähigkeit eines Sprachmodells zu. Beim Pathways Language Model setzt Google nicht nur auf die Größe des Sprachmodells, sondern führt eine neue Form von Multitasking-KI-Architektur ein. Diese nennt Google Pathways. Mit PaLM wurde der Pathways-Ansatz zum ersten Mal auf ein Sprachmodell angewandt.
Der Pathways-Ansatz selbst wurde im Oktober 2021, ein Jahr vor dem Pathways Language Model, vorgestellt. Die Grundidee bei Pathways ist, dass ein einzelnes KI-Modell in die Lage versetzt wird, viele verschiedene Aufgaben auszuführen und unterschiedliche Datentypen zu verstehen. Die Modelle sind nicht mehr nur für eine einzelne Aufgabe konzipiert, sondern dank eines tieferen Verständnisses der Zusammenhänge anpassungs- und multitaskingfähig.
Während herkömmliche KI-Modelle für das Erledigen einer bestimmten Aufgabe trainiert werden, erlaubt die Pathways-Architektur ein Modell für viele verschiedene Aufgaben gleichzeitig zu trainieren. Dadurch ist PaLM dem menschlichen Lernen ähnlicher. Die erlernte Fähigkeit, eine bestimmte Aufgabe zu lösen, ist auch für das Lösen anderer Aufgaben einsetzbar. Pathways macht multimodale Modelle möglich, die Sprache, Text, Audioinformationen und Bilder gleichzeitig verarbeiten und verstehen.
Darüber hinaus ist Pathways, ähnlich wie das menschliche Gehirn, in der Lage, nur die Bereiche eines Modells zu aktivieren, die für eine bestimmte Aufgabe tatsächlich benötigt werden. Pathways lernt, wie bestimmte Aufgaben durch die relevanten Bereiche eines Modells zu routen sind. Das Modell arbeitet dadurch schneller und effizienter.
Training des Pathways Language Model
Das Pathways Language Model nutzt sogenanntes Few-Shot-Lernen, bei dem Modelle mit vergleichsweise wenig Daten trainiert werden. Das Modell benötigt relativ wenig Trainingsbeispiele, um eine bestimmte Aufgabe zu erlernen. Es kann bereits erworbenes Wissen kombinieren und auf andere und neue Aufgaben transferieren.
Als Trainingsdaten für PaLM kamen verschiedene englischsprachige und mehrsprachige Datensets aus Quellen wie Wikipedia, GitHub, Büchern, Web-Dokumenten und anderen zum Einsatz. Trainiert wurde PaLM auf einem Pathways-System bestehend aus 6.144 TPU-v4-Chips. Das ist die größte bisher für das Training von KI-Modellen eingesetzte TPU-basierte System. Laut Angaben des PaLM-Teams erzielte das Modell beim Training eine Effizienz von circa 58 Prozent der theoretisch maximal erreichbaren Flops. Für das Training wurde sowohl die Daten- als auch Modellparallelisierung genutzt.
Fähigkeiten von PaLM
In zahlreichen Tests und Benchmarks erzielt PaLM Topergebnisse und lässt andere Sprachmodelle wie GLaM, GPT-3, Megatron-Turing NLG, Gopher, Chinchilla oder LaMDA deutlich hinter sich. Laut des PaLM-Teams sollen die Fähigkeiten in einzelnen Bereichen mit dem Sprachverständnis von 9- bis 12-Jährigen vergleichbar sein. PaLM zeigt nicht nur in englischsprachigen Tests, sondern auch in mehrsprachigen NLP-Aufgaben starke Ergebnisse. Und das, obwohl nur rund 22 Prozent der Trainingsdaten nicht in englischer Sprache vorlagen.
Das Pathways Language Model ist in der Lage, Texte zu übersetzen, Fragen zu beantworten, Lückentexte und Sätze zu vervollständigen, Aufgaben mit logischem Denken zu lösen, Ursache und Wirkung zu unterscheiden oder sogar den Sinn von Witzen, die neu und noch nicht im Web zu finden sind, zu verstehen und zu erklären. Weitere Fähigkeiten sind das Erkennen der Bedeutung kombinierter Emojis, das Erkennen sinnvoller Sätze oder das Auswählen passender Synonyme und Wortdefinitionen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
PaLM kann darüber hinaus Programmcode erstellen. Zur Erzeugung des Codes genügt es, dem Modell eine Aufgabe in natürlicher Sprache zu stellen. Neben Text-to-Code-Aufgaben übersetzt das Modell Programmcode in verschiedene Sprachen oder behebt Kompilierungsfehler. Diese Coding-Fähigkeiten sind erstaunlich, da der Anteil an Programmcode der Trainingsdaten lediglich rund fünf Prozent betrug.